查看原文
其他

苹果回应“远程扫描用户相册”:声明被广泛误解,未设后门,功能仅美国可用

iOS大全 2022-07-03

推荐关注↓

“iOS 15将远程扫描用户相册,以检测儿童色情图片。”

在这则让网友炸锅的消息宣布一周后,苹果官方站出来回应了。

苹果的软件总监Craig Federighi在这周五接受采访时表示:

我们的声明被广泛误解了。

对于隐私保护组织的抗议,以及“苹果在其软件中开了一个安全后门”的说法,Craig Federighi则“感到遗憾”:

事后看来, 同时引入的两个特性是造成这种困惑的原因之一。

未设后门,仅在美国可用

Federighi所说的两个特性中,图像检测是引发最广泛争议的一项功能。

苹果官网的对此的原文描述是:

iOS与iPadOS将搭载新技术,对存储在iCloud照片里的已有的儿童性虐图像进行检测。

“在设备端对图片进行检测”——这一行为让很多用户认为自己的隐私受到了侵犯。

而Federighi则解释:

首先,这一功能必须开启iCloud照片才能使用。

也就是说,尽管所有的事情都是在设备上完成的,但苹果只分析存储在iCloud照片中的图片。

完全本地存储的图像不参与这个过程。

其次,并非是“扫描相册“,而是“匹配照片”。

长期以来,美国国家失踪和被剥削儿童中心(NCMEC)维护着一个已知的非法虐待儿童图像的数据库。

它将这些数据存储为散列数据,也就是非法材料的数字“指纹”。

而苹果的新功能,就是将用户设备里的图片与这些特定的“指纹”进行匹配

iPhone不会查看你孩子洗澡的照片或色情内容。……它不会知道关于你的账户和其他照片的任何信息。

Federighi还表示:

用户必须有30张以上的图片被匹配,设备才会被锁定,或触发报警等相关功能。

而最后,苹果公司也表示,这一功能将首先在美国部署。

有些用户并不买账

而对于苹果的这番解释,有些网友并不买账:

他们试图将其描述成一个公关失误,但这不是,这是对先前承诺的背叛。

仅限iCloud照片就是个笑话,没有人会那样使用iPhone。

不过有网友表示这似乎可以理解:

美国法律规定他们要对自己的主机负责,而且是在合理的、可自由支配的程度上。据我所知,几乎每家科技公司都会出于这个原因对CSAM进行扫描。

而也有网友认为,苹果所遇到的问题根本不在于“声明造成了用户困惑”。

而是多年以来苹果一直将自己作为一家“隐私保护”公司来宣传,然后现在向用户宣布“要扫描他们的设备”。

这也就无怪用户会产生困惑,甚至出奇地愤怒了。

参考链接:
[1]https://www.qbitai.com/2021/08/27243.html

[2]https://www.reuters.com/technology/exclusive-apples-child-protection-features-spark-concern-within-its-own-ranks-2021-08-12/
[3]https://news.ycombinator.com/item?id=28172269
[4]https://www.bbc.com/news/technology-58206543

苹果软件总监采访视频:
https://www.wsj.com/video/series/joanna-stern-personal-technology/apples-software-chief-explains-misunderstood-iphone-child-protection-features-exclusive/573D76B3-5ACF-4C87-ACE1-E99CECEFA82C?mod=hp_lead_pos5

转自:量子位

https://mp.weixin.qq.com/s/yzsRTQrVKFg4f_XyHdOLCA

- EOF -

推荐阅读  点击标题可跳转

1、P7 砖家:对不起,我要跑路了!

2、一篇走心的 iOS 代码规范

3、数据告诉你,哪个省才是高考地狱模式?


看完本文有收获?请分享给更多人

关注「 iOS大全 」加星标,关注 iOS 动态

点赞和在看就是最大的支持❤️

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存